À l’ère de l’intelligence artificielle, une nouvelle forme de dépendance cognitive semble émerger. Une étude conduite par Steven Shaw et Gideon Nave, chercheurs à la Wharton School, met en lumière un phénomène troublant : face à une IA comme ChatGPT, les individus ont tendance à abandonner leur propre jugement.
S’appuyant sur les fondements de la psychologie cognitive popularisés par Daniel Kahneman dans son ouvrage Thinking, Fast and Slow, les chercheurs remettent en question la théorie classique des deux systèmes de pensée : le Système 1 (intuitif) et le Système 2 (analytique). Ils introduisent un troisième acteur : le “Système 3”, incarné par l’intelligence artificielle, une forme de cognition externe sur laquelle nous nous appuyons de plus en plus.
L’expérience repose sur un protocole simple mais redoutablement efficace. Les participants devaient résoudre des tests de raisonnement (Cognitive Reflection Test), avec ou sans assistance d’un chatbot. À leur insu, les chercheurs manipulaient la fiabilité de l’IA : certaines réponses étaient correctes, d’autres volontairement erronées.
Les résultats sont sans appel. Lorsque l’IA donnait une mauvaise réponse, les participants la suivaient dans 80 % des cas. Leur taux de réussite chutait alors de 46 % (sans IA) à 31 % (avec une IA fautive). À l’inverse, lorsque l’IA était fiable, leur performance grimpait à 71 %. Mais le plus surprenant reste ailleurs : la confiance des participants augmentait systématiquement, même lorsqu’ils étaient induits en erreur.
Les chercheurs parlent de “reddition cognitive”, un phénomène qui va au-delà du simple recours à des outils comme une calculatrice. Ici, il ne s’agit plus de déléguer une tâche, mais de renoncer à son propre jugement.
Pour tenter d’enrayer cette tendance, plusieurs variantes ont été testées : ajout de contraintes de temps, incitations financières, feedback immédiat. Résultat : malgré une légère amélioration, les participants continuaient majoritairement à suivre l’IA, même en étant conscients du risque d’erreur.
Les profils les plus vulnérables ? Ceux qui accordent une confiance élevée à la technologie et ceux qui sollicitent le moins leur réflexion personnelle. En d’autres termes, plus l’IA est fluide, rapide et convaincante, plus elle endort notre esprit critique.
Les auteurs de l’étude sont clairs : le problème ne réside pas dans l’intelligence artificielle elle-même, mais dans la manière dont elle est conçue et utilisée. Des interfaces trop intuitives et sans friction encouragent une acceptation passive des réponses.
Le véritable défi, selon eux, est donc de réintroduire de la “friction” dans l’expérience utilisateur : ralentir, questionner, forcer la réflexion. Car dans un monde où l’IA devient omniprésente, préserver notre capacité à penser par nous-mêmes pourrait bien devenir un enjeu crucial.


